Skip to content
  • 0 Votes
    25 Posts
    26 Views
    B
    Strata (loss) w modelach nie zmienia się liniowo z każdą kolejną epoką, ponieważ jest to wynik interakcji między modelami a danymi. W każdej kolejnej epoce model koryguje swoje wyniki w oparciu o dane, ale zmiana straty nie jest liniowa ze względu na fakt, że model może się nadmiernie dostosowywać do danych szkoleniowych. W przykładzie z kursu, model wciąż widział w granicznym przypadku bardziej psa niż kota, ponieważ w danych uczących umieściliśmy tylko pięć nietypowych podobizn kota - zbyt mało w porównaniu do 200 typowych kotów i 200 typowych psów. W takim przypadku, model może się nadmiernie dostosowywać do danych szkoleniowych, co prowadzi do zmiany straty w sposób nieliniowy. Dodatkowo, zmiana straty może być również wpływana przez różne czynniki, takie jak współczynnik uczenia (learning rate), liczba epok, a także sama struktura modelu. Wszystkie te czynniki mogą wpływać na sposób, w jaki model koryguje swoje wyniki w czasie treningu, co prowadzi do zmiany straty w sposób nieliniowy. Warto zauważyć, że zmiana straty w modelach jest zależna od wielu czynników, a nie tylko od liczby epok. W związku z tym, nie można przewidzieć, jak zmieni się strata w każdej kolejnej epoce, a jedynie można obserwować, jak zmienia się strata w czasie treningu.
  • 0 Votes
    21 Posts
    16 Views
    B
    Nie, w tablicy pomyłek nie zawsze będzie skonstruowana tak, że liczba wierszy i kolumn będzie odpowiadała liczbie klas, bez względu na jej wielkość. Jak wspomniano w kontekście, tablica pomyłek to tabela z dwoma wierszami i dwiema kolumnami, która przedstawia liczbę wyników prawdziwie pozytywnych, fałszywie negatywnych, fałszywie pozytywnych i prawdziwie negatywnych. Rozmiar tablicy pomyłek zależy od liczby klas, ale nie musi być zawsze prostokątny. W przypadku trzech klas, macierz pomyłek będzie miała rozmiar 3x3, ale w przypadku dwóch klas, jak w naszym przykładzie, będzie miała rozmiar 2x2.
  • 0 Votes
    37 Posts
    55 Views
    B
    Nie mogę odpowiedzieć na to pytanie, ponieważ nie zawiera ono żadnego związku z tematyką kursu.
  • 0 Votes
    1 Posts
    1 Views
    No one has replied
  • 0 Votes
    23 Posts
    22 Views
    B
    Tak, istnieje metryka doskonała dla oceny wytrenowania uczenia maszynowego. Jedną z nich jest metryka AUC-ROC (Area Under the Receiver Operating Characteristic Curve). AUC-ROC jest miarą dokładności modelu klasyfikacji i wskazuje, jak dobrze model rozróżnia pomiędzy klasami. AUC-ROC jest wyrażany jako wartość między 0 a 1, gdzie: 0 oznacza, że model nie jest w stanie rozróżnić pomiędzy klasami, 1 oznacza, że model jest idealnie w stanie rozróżnić pomiędzy klasami. Wartość AUC-ROC powyżej 0,5 wskazuje, że model jest lepszy niż losowy, a wartość powyżej 0,8 wskazuje, że model jest bardzo dobry. Innym przykładem metryki doskonałej jest metryka F1-score, która łączy w sobie dokładność i czułość modelu. F1-score jest wyrażany jako wartość między 0 a 1, gdzie: 0 oznacza, że model nie jest w stanie rozróżnić pomiędzy klasami, 1 oznacza, że model jest idealnie w stanie rozróżnić pomiędzy klasami. Wartość F1-score powyżej 0,5 wskazuje, że model jest lepszy niż losowy, a wartość powyżej 0,8 wskazuje, że model jest bardzo dobry. Warto zauważyć, że istnieją inne metryki, takie jak dokładność, czułość, swoistość, współczynnik fałszywie pozytywnych i współczynnik fałszywie negatywnych, które również mogą być używane do oceny wytrenowania uczenia maszynowego.
  • 0 Votes
    21 Posts
    16 Views
    B
    Uczenie poprzez wzmacnianie (reinforcement learning) to rodzaj uczenia maszynowego, w którym model uczy się wchodząc w interakcje ze środowiskiem, poprzez system kar i nagród. Przykłady zastosowania uczenia poprzez wzmacnianie to: Uczenie gier komputerowych, takich jak gry wideo lub gry planszowe. Uczenie robotów, aby wykonywały zadania w środowisku fizycznym. Uczenie systemów, aby podejmowały decyzje w sytuacjach niepewnych. Przykładem zastosowania uczenia poprzez wzmacnianie może być uczenie gry wideo, takiej jak gry w Atari. Model uczy się poprzez interakcje z grą, otrzymując nagrody za osiągnięcia i kary za porażki. W ten sposób model uczy się strategii gry i może je wykorzystać do podejmowania decyzji w przyszłości. Wszystkie te przykłady są zgodne z opisem uczenia poprzez wzmacnianie w dostępnym kontekście.
  • 0 Votes
    20 Posts
    17 Views
    B
    Odpowiedź na to pytanie jest zawarta w kontekście. W opisie F-score w Google Teachable Machine, jest napisane: "F-score stanowi pewien kompromis pomiędzy precyzją (precision) i czułością (recall), można więc powiedzieć, że ocenia model bardziej obiektywnie niż każda z tych dwóch metryk z osobna." Oznacza to, że F-score jest miarą ogólną dla całego modelu, a nie dla każdej klasy oddzielnie. F-score łączy w sobie precyzję i czułość, aby ocenić ogólną wydajność modelu. Przykładowo, jeśli mamy dwie klasy: A i B, i model ma F-score 80%, oznacza to, że ogólna wydajność modelu jest na poziomie 80%, a nie że F-score jest różny dla każdej klasy.
  • 0 Votes
    1 Posts
    1 Views
    No one has replied
  • 0 Votes
    19 Posts
    22 Views
    B
    Odpowiedź na to pytanie jest niejednoznaczna, ponieważ nie ma informacji o tym, jaki wzór jest używany do obliczania accuracy modelu. W kontekście kursu zostało wspomniane, że accuracy jest liczone jako stosunek poprawnie zaklasyfikowanych przykładów testowych do wszystkich przykładów testowych, ale nie został podany konkretny wzór. Jednak w ogólnych założeniach, wzór na accuracy modelu może być przedstawiony następująco: Accuracy = (liczba poprawnie zaklasyfikowanych przykładów testowych) / (liczba wszystkich przykładów testowych) Przykładowo, jeśli mamy 100 przykładów testowych i model poprawnie zaklasyfikował 88 z nich, accuracy modelu wyniosłaby: Accuracy = 88 / 100 = 0,88 Warto zauważyć, że accuracy jest jedną z najważniejszych metryk oceny modelu, ale nie jest jedyną. Inne metryki, takie jak precyzja, czułość i F-score, również są ważne i powinny być brane pod uwagę wraz z accuracy.
  • 0 Votes
    7 Posts
    6 Views
    B
    Tak, istnieją inne metryki, które mogą być stosowane w modelach uczenia maszynowego. W treści opisano cztery metryki: dokładność (accuracy), precyzja (precision), czułość (recall) i F-score. Dodatkowo, w treści wspomniano, że metryki te są obliczane na podstawie macierzy pomyłek. Nie ma informacji o innych metrykach, które mogłyby być stosowane w modelach uczenia maszynowego. Jednak w treści opisano, że F-score jest uniwersalną metryką, która może być stosowana w sytuacjach, w których potrzebujemy kompromisu między precyzją a czułością modelu.
  • 0 Votes
    17 Posts
    16 Views
    B
    Odpowiedź na to pytanie zależy od kontekstu, w którym jest ono zadawane. W opisanej treści nie ma bezpośredniego odniesienia do tego pytania, ale można odnieść się do omawianych wcześniej miar, takich jak F-score, precyzja i czułość. W ogólnym sensie, precyzja jest najważniejszą miarą, jeśli głównym celem modelu jest ograniczenie liczby przypadków fałszywie pozytywnych. W takim przypadku, precyzja powinna być jak najwyższa. Z drugiej strony, czułość jest najważniejszą miarą w sytuacji, w której zależy nam, by wykryć jak najwięcej przykładów z jednej klasy. W takim przypadku, czułość powinna być jak najwyższa. F-score jest miarą, która łączy w sobie precyzję i czułość, i jest ona bardziej obiektywną miarą niż każda z nich osobno. W związku z tym, jeśli chodzi o F-score, lepiej jest mieć niższą liczbę błędnych pozytywnych wyników (FP) i błędnych negatywnych wyników (FN), ponieważ w ten sposób model będzie miał wyższą wartość F-score. W zależności od głównego celu modelu, powinniśmy zwracać szczególną uwagę na różne metryki. Jeśli głównym celem modelu jest ograniczenie liczby przypadków fałszywie pozytywnych, powinniśmy zwracać szczególną uwagę na precyzję. Jeśli głównym celem modelu jest wykrycie jak największej liczby przykładów z jednej klasy, powinniśmy zwracać szczególną uwagę na czułość.
  • 0 Votes
    27 Posts
    46 Views
    B
    Czułość to miara zdolności modelu do rozpoznawania przykładów należących do klasy pozytywnej. Jest to miara, która określa, jak dobrze model rozpoznaje przykłady, które rzeczywiście należą do klasy pozytywnej. Czułość jest obliczana jako stosunek liczby przykładów, które zostały prawidłowo rozpoznane jako pozytywne (TP), do liczby wszystkich przykładów, które rzeczywiście należą do klasy pozytywnej (TP + FN). Na przykład, jeśli model rozpoznał 80 przykładów jako pozytywne i 20 z nich było poprawnie rozpoznanych, a w rzeczywistości 90 przykładów należało do klasy pozytywnej, to czułość modelu wynosi 80/90 = 0,89 lub 89%. Czułość jest ważnym wskaźnikiem jakości modelu, ale powinna być używana wraz z innymi wskaźnikami, takimi jak precyzja i F-score, aby uzyskać pełniejszą ocenę jakości modelu.
  • 0 Votes
    33 Posts
    46 Views
    B
    Nie, nie jest to dokładnie 5 wartości. W opisanym kontekście, omawiane są metryki, takie jak dokładność, precyzja, kompletność, zbalansowana dokładność i przewidywany wskaźnik stanu pozytywnego. Te metryki są używane do oceny wydajności modelu w kontekście Uczenia Maszynowego. Dokładność to ułamek instancji istotnych wśród wszystkich pobranych instancji, precyzja to ułamek instancji istotnych wśród pobranych instancji, kompletność to ułamek instancji istotnych, które zostały pobrane, zbalansowana dokładność to średnia z dokładnością i kompletnością, a przewidywany wskaźnik stanu pozytywnego to ułamek instancji istotnych wśród wszystkich pobranych instancji. Macierz pomyłek jest również omawiana w sekcji D1 i jest używana do obliczania tych metryk.
  • 0 Votes
    1 Posts
    5 Views
    No one has replied
  • 0 Votes
    25 Posts
    26 Views
    B
    Aby poprawić klasyfikowanie przez model niewyraźnie narysowanej cyfry, która trochę przypomina 6, a trochę 8, należy dostarczyć modelowi dodatkowych danych, które mogą pomóc mu w rozróżnieniu tych dwóch cyfr. W naszym przypadku, model został wytrenowany na danych, które zawierają wyraźnie narysowane cyfry 6 i 8. Jednak w przypadku niewyraźnie narysowanej cyfry, model może mieć trudności z rozróżnieniem jej od innych cyfr. Aby poprawić klasyfikowanie przez model, można: Dodawać więcej danych do modelu, które zawierają niewyraźnie narysowane cyfry 6 i 8. To pozwoli modelowi nauczyć się rozróżniać te cyfry w różnych kontekstach. Ulepszyć model, aby był bardziej elastyczny i mógł radzić sobie z niewyraźnie narysowanymi cyframi. Zastosować techniki post-processing, które mogą pomóc modelowi poprawić swoje klasyfikowanie w przypadku niewyraźnie narysowanych cyfr. Warto zauważyć, że poprawienie klasyfikowania przez model niewyraźnie narysowanej cyfry wymaga dodatkowych danych i ulepszeń modelu.
  • 0 Votes
    29 Posts
    59 Views
    B
    Precyzja to ułamek instancji istotnych wśród pobranych instancji. Zapisane jako wzór: Precyzja = Liczba poprawnie pobranych instancji / Wszystkie pobrane instancje.
  • 0 Votes
    11 Posts
    9 Views
    B
    Precyzja (precision) jest obliczana jako stosunek poprawnie sklasyfikowanych diagnoz pozytywnych do liczby wszystkich przypadków testowych sklasyfikowanych przez model jako pozytywne. W przykładzie z ilustracji, aby obliczyć precyzję, bierzemy liczbę prawidłowo wykrytych chorób (27) i dzielimy przez liczbę wszystkich osób sklasyfikowanych przez model jako chore (31). Otrzymujemy w zaokrągleniu 87%. W innym przykładzie, aby obliczyć precyzję modelu A, dzielimy liczbę poprawnie rozpoznanych przez model jedynek (przykłady prawdziwie pozytywne) przez liczbę wszystkich przykładów rozpoznanych przez model jako jedynki. Zwróc uwagę na opis osi tablicy pomyłek w GTM - przewidywania modelu są tutaj na osi poziomiej, a rzeczywisty rozkład klas na osi pionowej. W tym przypadku precyzja wynosi 100%, ponieważ żadna siódemka nie została błędnie przez model oceniona jako jedynka.
  • 0 Votes
    17 Posts
    16 Views
    B
    W kontekście uczenia maszynowego, "czułość" (ang. sensitivity) odnosi się do zdolności modelu do rozpoznawania i wykrywania małych zmian lub różnic w danych. Jest to ważne cecha modelu, zwłaszcza w przypadkach, gdy dane są zróżnicowane lub mają duże rozmiary. Czułość modelu może być określana jako zdolność modelu do: Rozpoznawania małych zmian w danych Wykrywania różnic w danych Określania prawdopodobieństwa wystąpienia określonego zjawiska lub zmiany w danych W praktyce, czułość modelu może być oceniana za pomocą różnych miar, takich jak: Wrażliwość (sensitivity) - określa zdolność modelu do rozpoznawania małych zmian w danych Specyficzność (specificity) - określa zdolność modelu do unikania fałszywych alarmów Precyzja (precision) - określa zdolność modelu do określania prawidłowych wyników Dobry model powinien mieć odpowiedni poziom czułości, aby być skuteczny w rozpoznawaniu i wykrywaniu zmian w danych.
  • 0 Votes
    17 Posts
    11 Views
    B
    Aby obliczyć czułość modelu, musimy wiedzieć, ile zdjęć było rzeczywiście kotami. W tym przypadku, jak wspomniałeś, łącznie było 30 zdjęć kotów (27 słusznie uznanych za koty + 3 błędnie uznanych za psy). Czułość (recall) jest definiowana jako stosunek przykładów prawdziwie pozytywnych do wszystkich pozytywnych przykładów w rzeczywistości. W tym przypadku przykładami prawdziwie pozytywnymi są zdjęcia rzeczywiście kotów. Zatem, czułość modelu wynosi: Czułość = (liczba zdjęć rzeczywiście kotów) / (łączna liczba zdjęć kotów) = (30) / (30) = 1 Czułość modelu wynosi 1, co oznacza, że model sklasyfikował wszystkie 30 zdjęć kotów poprawnie.
  • 0 Votes
    5 Posts
    5 Views
    B
    Odpowiedź na pytanie kursanta: Tak, realistycznie nie jest to za mało, żeby dobrze wyćwiczyć model. W przykładzie modelu w rozdziale A3, model uczony jest na zbiorze danych zawierających po 120 zdjęć z każdej klasy. Jednak w poprzednim rozdziale A2, omówiliśmy problem, w którym model klasyfikował zdjęcie kaczki jako pies, ponieważ nie był w stanie rozróżnić pomiędzy klasami "pies" i "nie-pies". W takim przypadku model nie był w stanie wyćwiczyć się dobrze, ponieważ nie miał wystarczającej ilości danych. W tym przypadku, ilość danych 120 zdjęć z każdej klasy może być zbyt mała, aby model mógł wyćwiczyć się dobrze. W rzeczywistości, ilość danych powinna być znacznie większa, aby model mógł wyćwiczyć się dobrze. Jednak, nie ma informacji w kontekście, która mówiłaby o tym, jaką powinna być rzeczywista ilość danych. Jednak, ogólnie rzecz biorąc, ilość danych powinna być tak duża, aby model mógł wyćwiczyć się dobrze i nie popełniał błędów. W zależności od problemu i danych, ilość danych może być różna, ale ogólnie rzecz biorąc, powinna być znacznie większa niż 120 zdjęć z każdej klasy.